ChatGPTのオープンソース版である「OpenAssistant」がプロンプトに対する回答の精度を向上させるためにアノテーションプラットフォーム使ってみんなで"AIを所持する未来"を作ってきた
public.icon
このノートの構成
1. Open Assistantについて
2. 機械学習用データセットを集めるためにアノテーションプラットフォームを開始した
3. 先行事例: AWSのMTurkについて
4. 既存のデータを判別する「アノテーション」から(データ枯渇が原因で)データを生み出す方向にシフトする
5. AIコモンセンスがコモディティ化した後
6. インターネット上で公開されていないデータをもとに動く業界特化型AI(コンソーシアム型AI)
7. 各DAOがAIを所持する未来
7. 機械学習のFine-tuningをOptimize by attentionと見る
8. デスクトップでFederated Learningと、スマホからSocial Annotation
9. 国家が公共財を支持するために徴税をするのであれば、AI DAOのメンバーには"納税"としてのSemantic Annotationが求められる
最後に. DeCartographyをよろしく!
Open Assistantについて
OpenAIが開発したChatGPTを知ってる人は多いと思うけど、これは1企業が作ったものだ
そして、投資を受けているから次のバージョンであるGPT-4のChatGPTは、Microsoftのサービスと統合される
つまり、Microsoftを使ってるユーザーしかこの恩恵を受けられない
加えて、検閲がかけられている。どういうことかというと、暴力的なワードはOpenAIが答えないように規制している
そこで、オープンソースでAIをChatGPTのオルタナティブを作るプロジェクトがある
そこで最近発表されたのが、Open Assistantだ
https://www.youtube.com/watch?v=64Izfm24FKA
https://gyazo.com/9f6d7e1c429fadce286e720fa9bf15e5
OSSなのでGitHub上で開発の様子が見れる
https://gyazo.com/a2fa362374fa088f58a51743a154326d
https://gyazo.com/7bb6586a94dacd2d0c67d2c64ae0a671
GlaspはChatGPT, RewindはWhisperを使っているように、「大規模言語モデルの成果をアプリに埋め込む」という使い方があるが、Open Assistantもそんな感じを目指してるっぽい
関連
画面を常に全て録画して、OCRでさかのぼって検索可能にするアプリ "Rewind"
Glaspを使ってYouTube動画をChatGPTで要約する
まずは簡単に、「ChatGPTの作り方」を紹介
https://gyazo.com/06a50faaf269627e2c89f66814c1505e
https://gyazo.com/f4a1277579da40df1357002a54ba1153
この機械学習モデルを作る中で、fine-tuningが必要だと
それはいまだに「人間でやるのが最も効率がいい。この作業をみんなに協力してほしい!」と。
機械学習用データセットを集めるためにアノテーションプラットフォームを開始した
https://gyazo.com/48b9ade5a194d925d6a36d82123dbb90
会話を理解するプロセスについて説明
https://gyazo.com/855aa10ece4f735b5780060001a5168c
プロンプターは、会話の中での役割から、プロンプターを「ユーザー」と呼びたくなります。しかし私たちはすでに、このシステムと対話する人々を「ユーザ」と呼んでいます。そして、これらのユーザはそれぞれ、アシスタント、プロンプター、順位付け、投票などの役割を担うことができます。ですから用語は分けて考えたほうがいいでしょう。プロンプターとは会話における役割、ユーザーとは我々のデータと対話する実際の人間です。
「アノテーションを行う人たち」
https://gyazo.com/30ab413c771fb355a1d6fe001dc8a22f
Discordでサインインができる
https://gyazo.com/a89609fd1d73662019652c23f4480cc1
タスクをする画面。つまり、機械学習モデルをみんなで育てるような場所だ!
関連: 集合知で生まれた「AIという巨人」の子育て
https://gyazo.com/06feb7e1d93b5a70fd40fc8570e75efc
これは"ユーザー"が、Linuxにどうアプリをインストールするのかと聞いてる
https://gyazo.com/4512b5af094bff9b73c2e0ef3d3851e4
Open Assistantがこの真ん中の質問に答えて、
もう一度ユーザーが「Linuxには詳しくない、どのパッケージマネージャーがいいの?」「Ubuntuを使っている」と聞いている様子がわかる
https://gyazo.com/ab2d56d101194eb39ebf655c7a7eb6c4
ちなみに、AI調教ガイドとも言えるべきドキュメントも公開されている
AIトレーニングのためのタスク開始!
https://gyazo.com/825440f4b2a19d8e8c5ba08221b871ec
先行事例: AWSのMTurkについて
AWSのプラットフォームの1つに「MTurk」というクラウドソーシング用のものがある
これは、以下のようなものである
1. AWSに対して企業はアノテーションしてほしいものを送る
2. クラウドワーカーは24時間いつでもMTurkにある「タスク」を取って、仕事することができる
3. 一定数のタスクを終えると報酬を受け取れる
要は、「機械学習データセットのアノテーションをクラウドソーシングできるサイト」なのだ。
調べてみると、MTurkのスクリーンショットがあった
https://gyazo.com/fd6652d7798378bd8af960b8caf9678c
https://www.researchgate.net/figure/Worker-interface-on-Amazon-Mechanical-Turk_fig1_32573436
EmotionLines: An Emotion Corpus of Multi-Party Conversationsという論文の図から取ってきた
"I make $1.45 a week and I love it"
https://gyazo.com/544ba545374d2f7cd37ec60700b32f02
MTurkを使ってる人たちを取材した記事
2006年に書かれていることに留意
1つの作業につき数ドルから数十円の報酬で、自らを「ターカー」と呼ぶ労働者たちは、写真に色を合わせるような暗記作業かもしれないが、コンピュータを困惑させるような作業を行うのである。
哲学的な観点から言えば、これは従来のコンピューティングのパラダイムを覆すものです」と言う。「通常、人はコンピュータの助けを借りて仕事をします。この場合、コンピュータが人間からタスクを助けてもらっているのです」。
昨年11月以来、米国をはじめ100カ国以上から何千人もの労働者がMturk.comで仕事をこなしている。
企業側は確かに満足している。私がコンタクトを取った企業は、Amazon Mechanical Turkで仕事を受けると、驚くほどコストがかからないと述べています。何百人もの人にプロジェクトを分担させることで、派遣社員やコンサルタント、ましてや実際の従業員に委託するよりも早く仕事を終わらせることができるだけでなく、はるかに安価に仕事を終わらせることができるのです。このサイトのキャッチフレーズは、「格安の人工知能」でいいだろう。Mturk.comを使ってトラブルシューティングの質問に答えているある技術系企業は、通常なら数千ドルかかる仕事をMechanical Turkで数十ドルに抑えていると自慢している。そして、もし企業がターカーから得られる仕事の質が気に入らなければ、単にお金を払わなければいいのだ。
DeCartography and the Future of Labortkgshn.icon
いわば、今までは国境というものが国によって主観的に引かれていて、その中で労働や、それらを超えてグローバル経済があったけど、MTurkのようなものはグローバルの最低賃金を破壊する可能性があると思っている
つまり、人類最後の労働は「労働をしなくて良くするための労働」だと思っている
これが、機械学習のText-embeddingとかになるんじゃないかな。Federated Learningもそうで、アノテーションとか。
資本論にも[市場価値のない人間を使って利益を産んだ方がいい]と書いてある
PoWを基本としたFederated Learningは、"Decentralized AI "への唯一の道と書いたことがあるが、もう一度軽く触れておこう
既存のデータを判別する「アノテーション」から(データ枯渇が原因で)データを生み出す方向にシフトする
機械学習用の訓練用データは枯渇する
MIT Tech Review: 大規模言語AIにアキレス腱、訓練用データが2026年にも枯渇か
GPT-4が誕生しても「幻覚」は消えない。そのためにはSemantic Dataが必要tkgshn.icon*2
What to Expect When You’re Expecting … GPT-4
AI時代の答え合わせは、「お金はトリクルダウンしないけど金と情報を突っ込まれてできた機械学習モデルの効果はトリクルダウンする」を適応すると、データを作り出すことが必要
言語モデルをトレーニングする方法は分散していくか?
元々本来のWeb3はSemantic Webだったんだけど、実際には、Semantic Dataはデータ生成のインセンティブが提供者と受益者で合致しないってので失敗しちゃった
AIコモンセンスがコモディティ化した後
企業は自前のAIを作ることになるだろうが、データを入手できるところはもうすでに大手がやってるので、「データが取れない領域をメインに」コンソーシアム型AIは発展していくであろう
人間のコモンセンスを"自然"とし、機械学習モデルに対しては人工的に入力を繰り返す姿は、人間が判断する"よさ"を入力するセンサー担っている
人間行動のアルゴリズム化を促している
これこそが collective intelligenceであり、「キュレーションはAIよりも人間でやった方が信頼できる」みたいなメモに挙げられている
予測市場によってリストを構築する「Token Curated Registry」
これは仮想通貨を使って実験されている最中だ
TCRとバブルソートは大体同じ、予測市場による人間チューリングマシンがリストを生成する
これを考えた時に関連に浮かんだのが、From Users to (Sense)Makers: On the Pivotal Role of Stigmergic Social Annotation in the Quest for Collective Sensemakingだtkgshn.icon
https://gyazo.com/8087842dbdfc72d7c6060abef4a58c07
課題: 既存のソーシャルメディア等をはじめとするコンテンツモデレーションは中央集権的だ
https://gyazo.com/21c22034f4697fd04267243589c68012
解決: そこで、Open Source Attentionという概念を使って再設計する必要がある
分散化とオープンソースソフトウェアの動きに触発され、我々はオープンソースアテンションを提案する。
これは、スティグマーギングマーカー(人間の注意のデジタル痕跡)を作成、保存、照会するための分散型エコシステムを通じて、プラットフォームによる制御から人間の注意を「解放」する社会-技術的枠組みである。
https://gyazo.com/6ccdfa4a633fca9ffa3b5069f9d809f6
「Stigmergy」という単語は、環境に残された情報に対する反応として行動を起こす、自発的で間接的な協調行動を指すと書いてある
生物にとって自己組織化とは何か──群れ形成のメカニズム
なかでも重要視されている「スティグマジー(stigmergy)」なる概念である。それは「社会性昆虫」と呼ばれるアリやハチの群れ行動やコロニー建設行動のメカニズムについて、非常に明快な説明を与えている
群知能(swarm intelligence)
群衆の知恵
https://gyazo.com/22d4abf52348cf6692dba3d4332b13b2
https://gyazo.com/4138b15d67097ffb36387b15f11a9bd9
https://gyazo.com/11b7b2587297324b8693e32fd2f8a29f
コンテンツを直接修正せず、むしろシグナリングの手がかりとして機能するスティグマギー・マーカー(デジタルの場合:いいね、注釈、テキストのハイパーリンク)である
Stigmergicマーカーは、ユーザーが明示的に残したもの(例:「いいね!」)、あるいはユーザーの行動を通じて暗黙的に記録されたもの(例:リンクのクリックスルーデータ、読書時間)である場合があります。
自己組織化は設計可能か──スティグマジーの可能性では、以下のように紹介されているtkgshn.icon
たとえば検索エンジンのGoogleは、いわゆるAI(人工知能)的な意味において高度で複雑な計算を行ない検索精度を高めているわけではなく、むしろ人間をアルゴリズム化することで検索エンジンとして成功した。その基本設計は極めてシンプルだ。「人間は良いと判断した情報にはリンクを貼る。だとすれば、そのリンクされたページに関するログを全部集計すれば、何がいいページかはおのずと分かる」というものである。ここで興味深いのは、むしろGoogleという検索ロボットの側こそが、人間を「情報収集ロボット」のように扱っているということである。すなわち、人間こそがアルゴリズム的に、つまり単純で反復的な「リンクをはる」という行動を取ることで、そのログの集積がそのまま検索エンジンの高性能化につながるということ。これこそが検索エンジンの基本的なインパクトであることは、改めて確認しておきたい事実である。
コンテンツ発見アルゴリズムは,広大なデジタルランドスケープをナビゲートするために不可欠であるが,大部分はプラットフォームによってコントロールされている .したがって、第二のシフトは、人間中心のコンテンツ発見を通じてメーカーに権限を与えることにより、この移行をサポートするために我々の認識環境を再設計することです
この構造は他にも見られている
Pixivに大量のAI生成画像が流れ込んで、「非AI画像が見たい」って人が目的のもの見つけられなくて困った
過去に振り返って価値を見出せる仕組みのおかげで、ユーザー側に初期の支援者になるインセンティブが与えられるので、膨大な情報世界におけるDiscovery問題を解決する一つの方法になる
以前にも予測市場ニュースキュレーションRSS「Relevant」の概要というものを書いたことがある。これもまさにChatGPTが台頭した後は人間が作った常識が通用しないのと論理が飛躍するので、結局人間による審査が必要 by nishioを裏付けるものの1つであろう
ちなみにこれは、social annotationの1つ
Solidに準拠
関連: Semantic Web
なお、ナレッジグラフ等のSemantic Dataのデータを使うことによって機械学習の精度が上がることは知られている
強化学習アーキテクチャ
https://gyazo.com/687ff989ae92a2f0caebea95690f4dfb
「裏面のインターネット」とも言える
del.icio.usから立ち上がる知性とmulticellular computing - huixingの日記
Social Bookmarkサービスの「del.icio.us」tkgshn.icon
Glaspと同じ概念
複雑適応系における創発の分析:Stigmergyのサインベースモデル
BlockScienceから「自立性の曖昧さ」というタイトルで、分散型システムにおけるガバナンス研究へのサイバネティクスの応用にも触れられていました
https://gyazo.com/c01deaa589ceba056d30ea53456e8225
自己主権型コンテンツモデレーション
自分のスティグメルジック・マーカーを作成・管理し、そのデータを、個人的・集団的成長を志向するコンテンツ発見サービスと共有する権限を与えられます。コンテンツのモデレーションは重要な代表例である
モデレーションは、中央集権的なシステムでは、AI能力の固有の限界と、必要な複雑な人間の判断の規模のために、実行不可能である。対照的に、分散型エコシステムは、様々な個人や組織が自分たちのニーズに合わせてコンテンツ・モデレーション・システムを作成・調整できる「フィルターのマーケットプレイス」を可能にします。
Pol.isのcollective intelligenceとかにも近い
検閲なしの標準モデルと、それ以外のフィルターみたいな考え方はできる
スティグマーマーカーは公共財と考えることができる。しかし、そのユニークな重要性にもかかわらず、その分散化を特にターゲットにした研究は驚くほど少ない
アノテーションツール。プラットフォームが「いいね!」ボタンを提供する場所だけでなく、そこに含まれるあらゆるURLやコンテンツ要素にマーカーを簡単に作成できるようにする
ブロックチェーンのコンセンサスシステムを参考に「分散型歴史編纂システム」を考える
tkgshn.iconとしては、「今こそ秒速送金システムとしての「仮想通貨」があるからこそ、こういったインターネット上でのマイクロワークに対してRetroactiveに報酬が支払われるべきなのではないか」と考えている
言うなれば、複雑系と計算機の2つを合成することが必要なのだという投げかけだ
Semantic Dataを活用したAIは今後増えていくと予想するtkgshn.icon*4
Semantic Web Technologies for Explainable Machine Learning Models: A Literature Review
Wangらは識別されたオブジェクトとオントロジー クラスの間の文字列マッチングを提案し、Liaoら33はオンラインソースから自動 的に概念と関係をマイニングすることを提案している。効果的かつ効率的な知識照 合を可能にするためには、この分野だけでなく、Semantic Annotationの ような関連分野でのさらなる研究が必要である。
How relevant are the topics of semantic web and information retrieval to machine learning?
機械学習の方向性を知り、それを最大限に活用しようとするならば、知識グラフをニューラルネットワークなどの手法や、決定木、ランダムフォレスト、SVM、回帰などのより単純な機械学習手法と組み合わせて使う方法を理解する必要があるだろう
つまり、人間の言葉の曖昧性解消や推論を可能にするのは、ニューラルネットそのものではなく、知識グラフベースなのです。
ちょっと具体的にイメージしずらいと思うので他にも群衆の知恵を使ったものを紹介
AIではなく群衆の知恵を使って、Fake Newsを判定するTwitterのCommunity Notes
https://gyazo.com/bc71ebccb4a7a1665e560954fbc645de
@nishio: なるほど、Twitterでファクトチェックしやすくなる機能追加ってわけね、いいじゃん
https://pbs.twimg.com/media/Fmg-dS1akAEkPOj.jpg
https://gyazo.com/95409420a7f510aa299a1421971c009c
実際の様子は、Community Notesを参照
1. 自分のアイデンティティというか専門分野みたいなのを最初に選択
2. 流れてくるツイートに対してレビュー
3. あとはTwitterが勝手に(異なるアイデンティティの人も同意とか同じような意見であれば)注釈を追加してくれる
例: 「これは今年の火事の画像ではなく、n年前のもので〜」
https://github.com/twitter/communitynotes/blob/main/birdwatch_paper_2022_10_27.pdf
Community Notes論文。Pol.isとも似てる。
https://gyazo.com/b9527b982c0e0602313027819d10785e
他にもたくさん
分散型オラクルの合意形成に対するピア予測法の潜在的有用性
ツイートのキュレーション集合知の「twi-douga保存ランキング」
予測市場でミームをキュレーションする「memefactory」
大規模言語モデルがOSSになると、「LAION AI」を"ジェネシスコモンセンス"(Bitcoin等のGenesis blockより)としてforkする(fine-tuning)する動きが起こる。
その結果、各業界のトップたちは連合して"取れないデータ"を集めようとする動きが起こる。
未来に起こりうるこれを、これを「コンソーシアム型 AI」と呼ぶことが可能であろう。
機械学習のFine-tuningをOptimize by attentionと見る